Youtube french translation
A partir de cette vidéo (que je vous conseille fortement de regarder, si vous souhaitez des éclaircissements sur les LLM) -> https://www.youtube.com/watch?v=osKyvYJ3PRM
On peut utiliser des outils tels que Langchain pour traduire presque instantanément les paroles contenues dans cette vidéo.
Voici l'algorithme qui nous permet de le faire Youtube download and translate in french on Google Colab
loader = YoutubeLoader.from_youtube_url(
"https://www.youtube.com/watch?v=osKyvYJ3PRM", <-- on donne le lien de la video que l'on veut traduire
add_video_info=True,
language=["en", "id"],
translation="fr", <-- on indique dans quelle langue on veut que cette vidéo soit traduite
)
et voici le résultat de cette traduction en français !!!
Alors oui, on peut être critique, comme notamment le "vous donner tout ce dont vous avez besoin pour ne rien savoir", mais je ne suis pas certain de pouvoir mieux faire dans l'ensemble, et soyons assez indulgents, car ces outils n'existaient absolument pas il y a encore un an... C'est plutôt pas mal, pour un nourisson, non ???
Cette vidéo va vous donner tout ce dont vous avez besoin pour ne rien savoir de l'intelligence artificielle et des grands modèles de langage et avoir une base solide sur le fonctionnement de ces technologies révolutionnaires au cours de l'année écoulée. L' intelligence artificielle a complètement changé le monde avec des produits comme chat PT potentiellement annexant chaque industrie et la façon dont les gens interagissent avec la technologie en général et dans cette vidéo, je me concentrerai sur la façon dont ils fonctionnent, les applications d'itérations et bien plus encore et cette vidéo a été créée en collaboration avec un programme incroyable appelé AI camp dans lequel les lycéens apprennent tout sur l' intelligence artificielle et j'en parlerai davantage plus tard dans la vidéo, commençons par qu'est-ce qu'un LLM, est-il différent de l'IA et en quoi le chat GPT est-il lié à tout cela ? Les LLM représentent de grands modèles de langage qui est un type de réseau neuronal formé sur d'énormes quantités de données textuelles. Il est généralement formé sur des données qui peuvent être trouvées en ligne, du web scraping aux livres en passant par les transcriptions. Tout ce qui est basé sur du texte peut être formé dans un grand modèle de langage et prendre du recul. qu'est-ce qu'un réseau de neurones, un réseau de neurones est essentiellement une série d'algorithmes qui tentent de reconnaître des modèles dans les données et ce qu'ils essaient en réalité de simuler le fonctionnement du cerveau humain et les LLM sont un type spécifique de réseau de neurones qui se concentre sur la compréhension. le langage naturel et, comme mentionné, les llms apprennent en lisant des tonnes de livres, d'articles, de textes sur Internet et il n'y a vraiment aucune limitation. En quoi les llms diffèrent-ils de la programmation traditionnelle? La programmation traditionnelle est basée sur des instructions, ce qui signifie que si x, alors pourquoi vous dites explicitement à l' ordinateur que faire, vous lui donnez un ensemble d'instructions à exécuter, mais avec LLMS, c'est une histoire complètement différente, vous apprenez à l'ordinateur non pas comment faire les choses mais comment apprendre à faire les choses et c'est une approche beaucoup plus flexible. et est vraiment bon pour de nombreuses applications différentes où le codage traditionnel ne pouvait pas les accomplir, donc un exemple d' application est la reconnaissance d'image avec reconnaissance d'image. La programmation traditionnelle vous obligerait à coder en dur chaque règle pour savoir comment, disons, identifier différentes lettres, donc a b c d mais si vous écrivez ces lettres à la main, les lettres manuscrites de chacun sont différentes, alors comment utiliser la programmation traditionnelle pour identifier toutes les variations possibles et c'est là qu'intervient cette approche de l'IA au lieu de donner à un ordinateur des instructions explicites sur la façon d'identifier une lettre manuscrite que vous lui donnez à la place un tas d'exemples de ce à quoi ressemblent les lettres manuscrites, puis il peut déduire à quoi ressemble une nouvelle lettre manuscrite sur la base de tous les exemples qu'elle contient, ce qui distingue également l'apprentissage automatique et les grands modèles de langage et cette nouvelle approche de la programmation est qu'ils sont beaucoup plus flexibles, beaucoup plus adaptables, ce qui signifie qu'ils peuvent apprendre de leurs erreurs et de leurs inexactitudes et sont donc beaucoup plus évolutifs que la programmation traditionnelle. Les llms sont incroyablement puissants pour un large éventail de tâches, y compris la génération de texte de synthèse, l' écriture créative, la programmation de questions et réponses et si vous J'ai regardé n'importe laquelle de mes vidéos, vous savez à quel point ces grands modèles de langage peuvent être puissants et ils ne font que mieux savoir qu'à l' heure actuelle, les grands modèles de langage et en général sont les pires qu'ils auront jamais été et à mesure que nous en générons davantage. données sur Internet et comme nous utilisons des données synthétiques, ce qui signifie des données créées par d'autres grands modèles de langage, ces modèles vont s'améliorer rapidement et c'est super excitant de penser à ce que l'avenir nous réserve maintenant, parlons un peu de l'histoire et de l'évolution de grands modèles de langage, nous allons couvrir quelques-uns des grands modèles de langage aujourd'hui dans cette section. L'histoire des LLM remonte au modèle Eliza qui date de 1966 et qui était en réalité le premier modèle de langage qu'il avait avant. des réponses programmées basées sur des mots-clés, il avait une compréhension très limitée de la langue anglaise et, comme beaucoup des premiers modèles de langage, vous avez commencé à voir des trous dans sa logique après quelques allers-retours dans une conversation, puis après cela, les modèles de langage n'ont vraiment pas évolué pour très longtemps, même si techniquement le premier réseau de neurones récurrent a été créé en 1924 ou RNN, ils n'ont pas vraiment pu apprendre avant 1972 et ces nouveaux modèles de langage d'apprentissage sont une série de réseaux de neurones avec des couches et des poids et tout un tas de choses qui Je ne vais pas entrer dans les détails de cette vidéo et les RNN étaient vraiment la première technologie capable de prédire le mot suivant dans une phrase plutôt que d'avoir tout préprogrammé pour cela et c'était vraiment la base de la façon dont les grands modèles de langage actuels travail et même après cela et l'avènement de l'apprentissage profond au début des années 2000, le domaine de l' IA a évolué très lentement avec des modèles de langage bien en retard sur ce que nous voyons aujourd'hui. Tout a changé en 2017, lorsque l' équipe Google Deep Mind a publié un document de recherche sur une nouvelle technologie. appelé Transformers et cet article a attiré votre attention, c'est tout ce dont vous avez besoin et une petite note. Je ne pense même pas que Google savait vraiment ce qu'ils avaient publié à ce moment-là, mais ce même article est ce qui a conduit l' IA ouverte à développer le chat GPT, donc évidemment un autre ordinateur les scientifiques ont vu le potentiel de l' architecture Transformers avec cette nouvelle architecture Transformers, elle était beaucoup plus avancée, elle nécessitait un temps de formation réduit et elle avait de nombreuses autres fonctionnalités comme l'auto- attention que j'aborderai plus tard dans cette vidéo. Les Transformers permettaient de grands modèles de langage pré-entraînés. comme gpt1 qui a été développé par open AI en 2018, il avait 117 millions de paramètres et c'était complètement révolutionnaire mais bientôt surclassé par d'autres llms puis après cela Bert est sorti en 2018 qui avait 340 millions de paramètres et avait une bidirectionnalité, ce qui signifie qu'il avait la capacité de traiter le texte dans les deux sens, ce qui l'a aidé à mieux comprendre le contexte et, à titre de comparaison, un modèle unidirectionnel ne comprend que les mots qui précèdent le texte cible et après ce film, n'a pas développé beaucoup de nouvelles technologies, mais leur échelle a considérablement augmenté. Gpt2 a été publié début 2019 et comportait 2,5 milliards de paramètres, puis GPT 3 en juin 2020 avec 175 milliards de paramètres et c'est à ce stade que le public a commencé à remarquer les grands modèles de langage. GPT avait une bien meilleure compréhension du langage naturel. langage que n'importe lequel de ses prédécesseurs et c'est le type de modèle qui alimente le chat GPT qui est probablement le modèle que vous connaissez le plus et le chat GPT est devenu si populaire parce qu'il était beaucoup plus précis que tout ce que quiconque avait jamais vu auparavant et c'était vraiment à cause de sa taille et parce qu'il était désormais intégré à ce format de chatbot, tout le monde pouvait s'y lancer et vraiment comprendre comment interagir avec ce modèle. Chad GPT 3.5 est sorti en décembre 2022 et a lancé cette vague actuelle d'IA que nous voyons aujourd'hui puis en mars 2023, GPT 4 a été publié et c'était incroyable et c'est toujours incroyable à ce jour, il avait un énorme 1,76 billion de paramètres signalés et utilise probablement un mélange d' approches d'experts, ce qui signifie qu'il dispose de plusieurs modèles qui sont tous affinés pour des besoins spécifiques. cas d'utilisation, puis lorsque quelqu'un lui pose une question, il choisit lequel de ces modèles utiliser, puis il ajoute la multimodalité et un tas d'autres fonctionnalités et cela nous amène là où nous en sommes aujourd'hui. Parlons maintenant de la façon dont les llms fonctionnent réellement. un peu plus en détail, le processus de fonctionnement des grands modèles de langage peut être divisé en trois étapes, la première de ces étapes est appelée tokenisation et il existe des réseaux de neurones qui sont formés pour diviser un texte long en jetons individuels et un jeton représente essentiellement environ 34 secondes de un mot donc si c'est un mot plus court comme high ou ça ou là, ce n'est probablement qu'un jeton, mais si vous avez un mot plus long comme résumé, il sera divisé en plusieurs morceaux et la façon dont la tokenisation se produit est en fait différente pour chaque modèle, certains d'entre eux les préfixes et suffixes séparés, regardons un exemple quel est le bâtiment le plus haut, donc quel est le bâtiment le plus haut sont tous des jetons séparés et donc cela sépare le suffixe du bâtiment le plus haut mais pas du bâtiment car il prend en compte le contexte et cette étape est effectuée Ainsi, les modèles peuvent comprendre chaque mot individuellement, tout comme les humains, nous comprenons chaque mot individuellement et en tant que groupements de mots, puis la deuxième étape du LLMS est quelque chose appelé intégrations. Les grands modèles de langage transforment ces jetons en vecteurs d'intégration, transformant ces jetons en essentiellement un tas de valeurs numériques. représentations de ces numéros de jetons, ce qui permet à l'ordinateur de lire et de comprendre beaucoup plus facilement chaque mot et comment les différents mots sont liés les uns aux autres. Ces nombres correspondent tous à la position dans une base de données vectorielle d'intégration, puis à l' étape finale du processus. est Transformers auquel nous reviendrons dans un instant, mais parlons d'abord des bases de données vectorielles et je vais utiliser les termes mot et jeton de manière interchangeable, alors gardez cela à l'esprit car ce sont presque la même chose, pas tout à fait mais presque. et donc ces intégrations de mots dont j'ai parlé sont placées dans quelque chose appelé une base de données vectorielle, ces bases de données sont des mécanismes de stockage et de récupération hautement optimisés pour les vecteurs et encore une fois, ce ne sont que des nombres, de longues séries de nombres, car ils sont convertis en ceux-ci. vecteurs, ils peuvent facilement voir quels mots sont liés à d'autres mots en fonction de leur similitude, de leur proximité en fonction de leurs incorporations et c'est ainsi que le grand modèle de langage est capable de prédire le mot suivant en fonction des mots précédents. Les bases de données vectorielles capturent le relation entre les données en tant que vecteurs dans un espace multidimensionnel Je sais que cela semble compliqué, mais ce sont en réalité beaucoup de nombres. Les vecteurs sont des objets avec une ampleur et une direction qui influencent tous deux la similitude d'un vecteur avec un autre et c'est ainsi que les llms représentent les mots basés sur ceux-ci. nombres, chaque mot est transformé en un vecteur capturant la signification sémantique et sa relation avec d'autres mots. Voici donc un exemple des mots livre et ver qui, indépendamment, peuvent ne pas sembler liés les uns aux autres, mais ils sont des concepts liés car ils apparaissent fréquemment ensemble. rat de bibliothèque quelqu'un qui aime beaucoup lire et à cause de cela, ils auront des intégrations qui se ressemblent et ainsi les modèles développent une compréhension du langage naturel en utilisant ces intégrations et en recherchant la similitude de différents mots, des groupes de mots et tout cela les relations nuancées et le format vectoriel aident les modèles à mieux comprendre le langage naturel que les autres formats et vous pouvez en quelque sorte considérer tout cela comme une carte si vous avez une carte avec deux points de repère proches l'un de l'autre, ils seront probablement très similaires coordonnées donc c'est un peu comme ça, ok, parlons maintenant de Transformers mat. Les représentations matricielles peuvent être créées à partir de ces vecteurs dont nous venons de parler, cela se fait en extrayant certaines informations des nombres et en plaçant toutes les informations dans une matrice via un algorithme appelé attention multi- têtes la sortie de l'algorithme d'attention multi-têtes est un ensemble de nombres qui indique au modèle dans quelle mesure les mots et leur ordre contribuent à la phrase dans son ensemble, nous transformons la matrice d'entrée en une matrice de sortie qui sera ensuite correspondre à un mot ayant les mêmes valeurs que cette matrice de sortie, donc fondamentalement, nous prenons cette matrice d'entrée, la convertissons en matrice de sortie, puis la convertissons en langage naturel et le mot est la sortie finale de tout ce processus, cette transformation est effectuée par l'algorithme qui a été créé pendant le processus de formation afin que la compréhension du modèle sur la façon d'effectuer cette transformation soit basée sur toutes ses connaissances selon lesquelles il a été formé avec tout ce texte. Données provenant d'Internet à partir de livres, d'articles, etc. et il a appris quelles séquences de des mots vont ensemble et leurs mots suivants correspondants en fonction des poids déterminés lors de la formation. Les transformateurs utilisent un mécanisme d'attention pour comprendre le contexte des mots dans une phrase. Cela implique des calculs avec le produit scalaire qui est essentiellement un nombre représentant la contribution du mot au mot. phrase, il trouvera la différence entre les produits scalaires des mots et lui donnera des valeurs d'attention plus grandes en conséquence et il prendra davantage en compte ce mot s'il a une plus grande attention. Parlons maintenant de la façon dont les grands modèles de langage sont réellement formés lors de la première étape de entraîner un grand modèle de langage consiste à collecter les données dont vous avez besoin de beaucoup de données quand je dis des milliards de paramètres qui ne sont qu'une mesure de la quantité de données réellement utilisées pour entraîner ces modèles et vous devez trouver un très bon ensemble de données si vous avez de très mauvaises données entrent dans un modèle, alors vous allez avoir un très mauvais modèle dans les ordures, donc si un ensemble de données est incomplet ou biaisé, le grand modèle de langage le sera également et les ensembles de données sont énormes, nous parlons de massifs massifs les quantités de données qu'ils récupèrent à partir de pages Web, de livres, de conversations, de publications Reddit, de xposts, de transcriptions YouTube, pratiquement partout où nous pouvons obtenir des données textuelles, ces données deviennent si précieuses, permettez-moi de mettre en contexte l' ampleur des ensembles de données dont nous disposons. parlons vraiment, alors voici un petit morceau de texte qui représente 276 jetons, c'est tout maintenant si nous effectuons un zoom arrière, un pixel représente autant de jetons et voici maintenant une représentation de 285 millions de jetons, soit 0,02% des 1,3 billions de jetons que certains grands les modèles de langage doivent s'entraîner et il y a toute une science derrière le prétraitement des données qui prépare les données à utiliser pour entraîner un modèle, de l' examen de la qualité des données à l'étiquetage de la cohérence du nettoyage des données, de la transformation des données et de la réduction des données, mais je ne vais pas le faire. allez trop loin et ce pré-traitement peut prendre beaucoup de temps et cela dépend du type de machine utilisée, de la puissance de traitement dont vous disposez, de la taille des données, du nombre d' étapes de pré-traitement et de tout un tas d'autres facteurs qui rendent très difficile de savoir exactement combien de temps le prétraitement va prendre, mais une chose dont nous savons qu'elle prend beaucoup de temps est que les sociétés de formation comme Nvidia construisent du matériel spécifiquement adapté aux mathématiques derrière les grands modèles de langage et ce matériel. s'améliore constamment, les logiciels utilisés pour traiter ces modèles s'améliorent également et donc le temps total de traitement des modèles diminue mais la taille des modèles augmente et pour former ces modèles, il est extrêmement coûteux car vous avez besoin de beaucoup de puissance de traitement. l'électricité et ces puces ne sont pas bon marché et c'est pourquoi le cours de l'action Nvidia a grimpé en flèche, la croissance de leurs revenus a été extraordinaire et donc, avec le processus de formation, nous prenons ces données textuelles prétraitées dont nous avons parlé plus tôt et elles sont introduites dans le modèle, puis en utilisant Transformers ou toute autre technologie sur laquelle un modèle est réellement basé, mais très probablement Transformers, il essaiera de prédire le mot suivant en fonction du contexte de ces données et il ajustera les poids du modèle pour obtenir le meilleur résultat possible et ce processus se répète des millions et des millions de fois, encore et encore jusqu'à ce que nous atteignions une qualité optimale, puis la dernière étape est l'évaluation, une petite quantité de données est mise de côté pour l'évaluation et le modèle est testé sur cet ensemble de données pour en vérifier les performances, puis le modèle est ajusté si nécessaire la métrique utilisée pour déterminer l'efficacité du modèle s'appelle perplexité il comparera deux mots en fonction de leur similarité et il donnera un bon score si les mots sont liés et un mauvais score sinon et puis on utilise aussi rlf apprentissage par renforcement via la rétroaction humaine et c'est à ce moment-là que les utilisateurs ou les testeurs testent réellement le modèle et fournissent des scores positifs ou négatifs en fonction du résultat, puis une fois de plus, le modèle est ajusté si nécessaire, d'accord, parlons maintenant du réglage fin, ce qui, je pense, est important. vous allez être intéressé parce que c'est quelque chose que la personne moyenne peut aborder assez facilement, nous avons donc ces grands modèles de langage populaires qui sont formés sur des ensembles massifs de données pour développer des capacités linguistiques générales et ces modèles pré-entraînés comme Bert comme GPT donner aux développeurs une longueur d'avance par rapport aux modèles de formation à partir de zéro, mais vient ensuite un réglage fin qui nous permet de prendre ces modèles bruts, ces modèles Foundation et de les affiner pour nos cas d'utilisation spécifiques, alors réfléchissons à un exemple, disons que vous voulez modèle de thon fin pour pouvoir prendre des commandes de pizza pour pouvoir avoir des conversations répondre à des questions sur la pizza et enfin pouvoir permettre aux clients d'acheter de la pizza vous pouvez prendre un ensemble de conversations préexistantes qui illustrent les allers-retours entre une pizzeria et une charge de clients qui peaufine un modèle et puis tout d'un coup, ce modèle va être bien meilleur pour avoir des conversations sur la commande de pizza, le modèle met à jour les poids pour mieux comprendre certaines questions de terminologie de la pizza, les réponses tonifient tout et bien -le réglage est beaucoup plus rapide qu'une formation complète et il produit une précision beaucoup plus élevée et un réglage fin permet d' affiner les modèles pré-entraînés pour des cas d'utilisation réels et enfin, vous pouvez prendre un seul modèle de base et l'affiner n'importe quel nombre de fois pour un certain nombre de cas d'utilisation et il existe de nombreux excellents services qui vous permettent de le faire et encore une fois, tout dépend de la qualité de vos données, donc si vous disposez d' un très bon ensemble de données, vous allez le faire. - régler un modèle sur le modèle va être vraiment très bien et à l'inverse, si vous avez un ensemble de données de mauvaise qualité, cela ne fonctionnera pas aussi bien, laissez-moi faire une pause une seconde et parler d' AI Camp, comme mentionné plus tôt dans cette vidéo tout son contenu, les animations ont été créées en collaboration avec des étudiants d'AI Camp AI Camp est une expérience d'apprentissage pour les étudiants âgés de 13 ans et plus. Vous travaillez en petits groupes personnalisés avec des mentors expérimentés. Vous travaillez ensemble pour créer un produit d'IA à l'aide d'un ordinateur PNL. vision et science des données AI Camp propose à la fois un programme de 3 semaines et un programme unique pendant l'été qui ne nécessite aucune expérience en programmation. Ils ont également un nouveau programme de 10 semaines au cours de l'année scolaire qui est moins intensif que le programme unique et 3-nous. programmes pour les étudiants très occupés. La mission d'AI Camp est de fournir aux étudiants des connaissances approfondies et une intelligence artificielle qui les positionneront pour être prêts pour un séjour dans le monde réel. Je mettrai un lien vers un article de USA Today dans la description de tout sur le camp d'IA. mais si vous êtes étudiant ou si vous êtes parent d'un étudiant de cet âge, je vous recommande fortement de consulter AI Camp, d'aller sur ai-camp.org pour en savoir plus, parlons maintenant des limites et des défis des grands modèles de langage. aussi capables que soient les LLM, ils ont encore beaucoup de limites, les modèles récents continuent de s'améliorer mais ils sont toujours défectueux, ils sont incroyablement précieux et compétents à certains égards, mais ils sont également profondément défectueux dans d'autres comme les mathématiques, la logique et le raisonnement, ils ont encore du mal la plupart du temps, contre les humains qui comprennent des concepts comme celui-là assez facilement, les préjugés et la sécurité continuent d'être un gros problème. les grands modèles de langage sont formés sur des données créées par des humains qui sont naturellement imparfaites. Les humains ont des opinions sur tout et ces opinions se répercutent sur celles-ci. modèles, ces ensembles de données peuvent inclure des informations préjudiciables ou biaisées et certaines entreprises vont plus loin dans leurs modèles et fournissent un certain niveau de censure à ces modèles et c'est toute une discussion en soi pour savoir si la censure en vaut la peine ou non. Je sais que beaucoup d'entre vous connaissent déjà mon les opinions à ce sujet tirées de mes vidéos précédentes et une autre grande limitation des LLM sont historiquement qu'ils n'ont des connaissances que jusqu'au point où leur formation a eu lieu, mais cela commence à être résolu avec le chat GPT pouvant naviguer sur le Web par exemple Gro à partir de x . aai étant capable d'accéder aux tweets en direct, mais il y a encore beaucoup de problèmes à résoudre. Un autre autre grand défi pour les grands modèles de langage est les hallucinations, ce qui signifie qu'ils inventent parfois des choses ou se trompent manifestement et ils le seront. confiants d'avoir tort aussi, ils diront les choses avec la plus grande confiance, mais ils auront complètement tort, regardez cet exemple combien de lettres il y a dans la chaîne, puis nous lui donnons une chaîne de caractères aléatoire et la réponse est que la chaîne a même 16 lettres bien qu'il ne contienne que 15 lettres, un autre problème est que les grands modèles de langage sont extrêmement gourmands en matériel, ils coûtent très cher à former et à affiner car cela prend beaucoup de puissance de traitement pour le faire et il y a beaucoup d'éthique à prendre en compte aussi des entreprises d'IA déclarent qu'elles n'entraînent pas leurs modèles sur du matériel protégé par le droit d'auteur, mais cela s'est avéré faux. Actuellement, de nombreuses poursuites sont en cours devant les tribunaux à ce sujet. Parlons ensuite des applications réelles des grands modèles de langage. Pourquoi sont-ils ils sont si précieux, pourquoi on en parle tant et pourquoi transforment-ils le monde sous nos yeux de grands modèles de langage peuvent être utilisés pour une grande variété de tâches, pas seulement des chatbots, ils peuvent être utilisés pour la traduction linguistique, ils peuvent être utilisés pour codage, ils peuvent être utilisés comme assistants de programmation, ils peuvent être utilisés pour résumer les questions, répondre à la rédaction d'essais, traduire et même créer des images et des vidéos. Fondamentalement, tout type de problème de pensée qu'un humain peut résoudre avec un ordinateur. De grands modèles de langage peuvent probablement aussi le faire, sinon aujourd'hui. bientôt dans le futur, parlons maintenant des avancées et de la recherche actuelles. Actuellement, on parle beaucoup de distillation des connaissances, ce qui signifie essentiellement transférer des connaissances clés de très grands modèles de pointe vers des modèles plus petits et plus efficaces. Pensez- y comme un professeur condensant des décennies d'expérience dans un manuel jusqu'à quelque chose que les étudiants peuvent comprendre, ce qui permet à des modèles de langage plus petits de bénéficier des connaissances acquises grâce à ces grands modèles de langage, tout en fonctionnant toujours de manière très efficace sur le matériel grand public de tous les jours. Cela rend les grands modèles de langage plus accessibles et plus pratiques à exécuter, même sur sur les téléphones portables ou autres appareils finaux, il y a également eu beaucoup de recherches et l'accent a été mis sur rag, qui est une génération augmentée de récupération, ce qui signifie essentiellement que vous donnez à de grands modèles de langage la possibilité de rechercher des informations en dehors des données sur lesquelles ils ont été formés. en utilisant les bases de données Vector de la même manière que les grands modèles de langage sont formés, mais vous êtes capable de stocker d'énormes quantités de données supplémentaires qui peuvent être interrogées par ce grand modèle de langage, parlons maintenant des considérations éthiques et il y a beaucoup de choses à penser ici et moi J'aborde simplement certains des sujets majeurs dont nous avons déjà parlé, à savoir que les modèles sont formés sur du matériel potentiellement protégé par le droit d'auteur et si tel est le cas, l'utilisation équitable ne sera probablement pas la prochaine étape. Ces modèles peuvent et seront utilisés pour des actes nuisibles, il n'y a pas moyen de l' éviter. les grands modèles de langage peuvent être utilisés pour arnaquer d'autres personnes afin de créer des campagnes massives de désinformation et de désinformation, y compris de fausses images, de faux textes, de fausses opinions et il est presque certain que l'ensemble des cols blancs sera perturbé par de grands modèles de langage, comme je l'ai mentionné, tout ce que n'importe qui peut faire devant d'un ordinateur est probablement quelque chose que l'IA peut aussi faire, donc avocats, écrivains, programmeurs, il y a tellement de professions différentes qui vont être complètement perturbées par l' intelligence artificielle et puis finalement AGI, que se passe-t-il lorsque l'IA devient si intelligente et peut-être même commence à penser par elle-même c'est là que nous devons avoir quelque chose appelé alignement, ce qui signifie que l'IA est alignée sur les mêmes incitations et résultats que les humains. Parlons donc pour la dernière fois de ce qui se passe sur The Cutting Edge et dans un avenir immédiat, il existe un certain nombre de façons dont les grands modèles de langage peuvent être améliorés, ils peuvent d'abord vérifier eux-mêmes les faits avec les informations recueillies sur le Web, mais vous pouvez évidemment voir les défauts inhérents à cela, puis nous avons également abordé le mélange d'experts qui est une nouvelle technologie incroyable qui permet à plusieurs modèles d'être en quelque sorte fusionnés, tout va bien. Adaptez-vous pour être des experts dans certains domaines, puis lorsque l'invite réelle arrive, il choisit lequel de ces experts utiliser, ce sont donc d'énormes modèles qui fonctionnent vraiment très efficacement et puis il y a beaucoup de travail sur la multimodalité, donc en prenant la contribution de la voix à partir des images à partir de la vidéo, de toutes les sources d'entrée possibles et d'avoir une seule sortie à partir de celle-ci, beaucoup de travail est également fait pour améliorer la capacité de raisonnement, faire réfléchir les modèles lentement est une nouvelle tendance que j'ai vue dans des articles comme orca également, qui force simplement un grand modèle de langage pour réfléchir aux problèmes étape par étape plutôt que d'essayer de sauter immédiatement à la conclusion finale, puis également à des tailles de contexte plus grandes si vous souhaitez qu'un grand modèle de langage traite une énorme quantité de données, il doit avoir une très grande fenêtre de contexte et un La fenêtre contextuelle indique la quantité d'informations que vous pouvez donner à une invite pour obtenir le résultat. Une façon d'y parvenir est de donner de la mémoire à de grands modèles de langage avec des projets comme mgpt sur lesquels j'ai fait une vidéo et je vais le laisser dans la description ci-dessous. et cela signifie simplement donner aux modèles une mémoire externe à partir de cet ensemble de données de base sur lequel ils ont été formés, donc c'est tout pour aujourd'hui si vous avez aimé cette vidéo, pensez à donner un like et abonnez-vous, consultez AI Camp, je laisserai toutes les informations dans la description ci-dessous et bien sûr, regardez l'une de mes autres vidéos sur l'IA si vous voulez en savoir encore plus, je vous verrai dans la prochaine